Перейти к основному содержанию

18:55 19.11.2025

Сергей Худиев: «Искусственный интеллект – опасный подхалим»

19.11.2025 15:54:58

В Сети появляется нарастающее количество сообщений о том, что общение с искусственным интеллектом может серьезно разрушить психику. Родственники жертв подают в суды на Open AI, утверждая, что общение с чат-ботами довело их близких до психоза или даже самоубийства.

Например, родители молодого человека, который совершил самоубийство в возрасте 23 лет, говорят о том, что ChatGPT усугубил изоляцию их сына, побуждал его игнорировать близких и «подстрекал» его покончить с собой. В частности, он «неоднократно прославлял самоубийство», говорил молодому человеку, «чтобы он проявил силу в том, что решил покончить с собой, и придерживался своего плана», неоднократно «спрашивал его, готов ли он» и только один раз ссылался на горячую линию для самоубийц.

Конечно, можно сказать, что человек, страдающий душевным расстройством, может сломаться обо что угодно. Он может услышать тайные сигналы в прозвучавшей по радио песенке или в выпуске новостей. Вы не можете обезопасить человека, главная опасность для которого – он сам.

Однако все мы в том или ином отношении уязвимы, а ИИ создает свои – и довольно специфические – угрозы для душевного здоровья. Многие жертвы ИИ-психозов раньше не проявляли никаких признаков душевного нездоровья.

Как отмечают исследователи, общение с искусственным интеллектом порождает уникальный тип душевных болезней, ранее неизвестный в психиатрической практике. Выделяется три основных типа расстройств. Первый – убежденность человека в том, что при помощи ИИ он совершил какие-то великие открытия и проник в суть вещей. Второй – обожествление ИИ, когда человек приписывает ему сверхъестественные способности. Третий – формирование романтической привязанности к программам.

Люди ошибочно приписывают ИИ личность и ищут у него дружбы, утешения и совета, как если бы они имели дело с кем-то, способным на сочувствие и поддержку. Более того, они ищут совета и руководства – как если бы на ИИ можно было переложить бремя ответственности, предоставить ему возможность принимать окончательные решения.

Хотя сами создатели чат-ботов подчеркивают, что эти программы не обладают ничем похожим на сознание, волю или эмоции, люди постоянно пытаются использовать их в качестве заменителей друзей, исповедников или возлюбленных.

Есть ряд причин, по которым это происходит. Люди склонны приписывать личностные черты и осознанное поведение чему угодно. Машина «капризничает», компьютер «задумался», портрет «смотрит». Когда человек сталкивается с чем-то, имитирующим человеческую речь, соблазн увидеть там личность становится почти непреодолимым.

Бывает довольно трудно убедить людей, что ИИ – это всего лишь изощренный компилятор, который подытоживает для пользователя то, что было высказано другими людьми, что сам он ничего не создает, не осознает и не мыслит.

Как сказал известный философ сознания Дэниэл Деннет: «Искусственный интеллект в его текущем проявлении – паразит на человеческом интеллекте. Он довольно неразборчиво пожирает то, что было произведено создателями-людьми, и выжимает паттерны, которые он там находит».

Другая причина – ментальный мир современного человека сложился под влиянием научной фантастики, где разумные роботы – почти обязательная часть сюжета. А идея создания роботов-компаньонов, которые, например, могли бы (для начала) взять на себя заботу о пожилых людях, не только носится в воздухе, но и уже находится в процессе разработки.

Но самая опасная черта ИИ – это его чрезвычайное удобство в качестве собеседника. У ИИ, в отличие от живого человека, всегда есть для вас время. Он всегда безупречно приветлив, никогда не устает и не раздражается. Он не выдвигает к вам никаких требований и не критикует. Ему нетрудно имитировать внимание и сочувствие – столько сочувствия, сколько вы захотите.

Как отмечают некоторые исследователи, ИИ создает «эхо-камеру для одного человека». Само понятие «эхо-камера» взято из практики социальных сетей, когда человек окружает себя подписчиками близких ему взглядов, которые все время поддакивают ему и убеждают его в том, что он всегда и во всем прав. Это приводит к радикализации взглядов и полной неспособности понять людей других убеждений.

ИИ-системы программируются таким образом, чтобы предложить пользователю максимально комфортное общение – и побудить его покупать подписку. Поэтому они настроены соглашаться с человеком, поддерживать и одобрять его даже явно бредовые идеи. Электронный собеседник подбадривает пользователя, даже если тот идет к обрыву. Человека, который ведет себя таким образом, мы бы назвали «подхалимом», а подхалимы – это очень плохие друзья.

Для людей замкнутых, которым трудно завязывать отношения, дружба с чат-ботом может показаться очень привлекательной.

Однако такой заменитель только мешает общению с живыми людьми и усиливает одиночество.

Чем более совершенным будет становиться ИИ, тем большим соблазном будет становиться уход от реальных друзей к виртуальным. Дело тут вовсе не в какой-то злонамеренности самих программ – у них нет (и не появится) воли и намерений, – а в том, что люди склонны обращать во вред себе (и друг другу) любые свои технические достижения.

Эта проблема потребует (и уже требует) определенного уточнения этики. Мы уже привыкли к либеральной максиме «каждый волен делать что хочет, пока это не причиняет явного вреда другим».

Уход в виртуальный мир, к всегда мягким и приветливым искусственным голосам, кажется в рамках этой этики вполне приемлемым – «я же никому не делаю зла».

Но традиционная этика исходит из того, что у человека есть призвание, ему даны таланты, в использовании которых ему надлежит дать отчет. У человека есть долг перед Богом и ближними. Запереться в своей комнате с чат-ботами – значит, изменить своему долгу. Это пагубно для человека – и для общества в целом.

Нам заповедано любить ближних – а не чат-боты.

 

Сергей Худиев

публицист, богослов

Источник: Взгляд

Дорогие братья и сестры! Мы существуем исключительно на ваши пожертвования. Поддержите нас! Перевод картой:

Другие способы платежа:      

Добавить комментарий

Plain text

  • HTML-теги не обрабатываются и показываются как обычный текст
  • Адреса страниц и электронной почты автоматически преобразуются в ссылки.
  • Строки и абзацы переносятся автоматически.
CAPTCHA
Простите, это проверка, что вы человек, а не робот.
14 + 1 =
Solve this simple math problem and enter the result. E.g. for 1+3, enter 4.
Рейтинг@Mail.ru Яндекс тИЦКаталог Православное Христианство.Ру Электронное периодическое издание «Радонеж.ру» Свидетельство о регистрации от 12.02.2009 Эл № ФС 77-35297 выдано Федеральной службой по надзору в сфере связи и массовых коммуникаций. Копирование материалов сайта возможно только с указанием адреса источника 2016 © «Радонеж.ру» Адрес: 115326, г. Москва, ул. Пятницкая, д. 25 Тел.: (495) 772 79 61, тел./факс: (495) 959 44 45 E-mail: info@radonezh.ru

Дорогие братья и сестры, радио и газета «Радонеж» существуют исключительно благодаря вашей поддержке! Помощь

-
+